Книга по Eviews


Практическое занятие № 3.
«Применение Eviews при построении и анализе многофакторной модели регрессии. Выявление мультиколлинеарности и гетероскедастичности в модели. Проверка спецификации модели»
 


Введем следующие обозначения: Y – зависимая переменная, X1i- 1-я независимая переменная, X2i - 2-я независимая переменная.
На основании ранее прочитанных уроков мы можем:
1. Создать файл с исходными данными в среде Excel (файл example_04.xls).
2. Осуществить импорт исходных данных в Eviews.
3. Создать workfile.
4. Найти значения описательных статистик по каждой переменной и объяснить их
Для освещения темы нам необходимо:
5. Построить корреляционную матрицу для всех переменных, включенных в модель.
6. Построить регрессионное уравнение МНК, в котором зависимая переменная Y, а независимые – X1i, X2i .
Уравнение примет следующий вид:
Yi=a0+b1*x1i+ b2*x2i+ui
Мультиколлинеарность – это коррелированность двух или нескольких объясняющих переменных в уравнении регрессии. В результате высококоррелированные объясняющие переменные действуют в одном направлении и имеют недостаточно независимое колебание, чтобы дать возможность модели изолировать влияние каждой переменной. Проблема мультиколлинеарности возникает только в случае множественной регрессии. Мультиколлинеарность особенно часто имеет место при анализе макроэкономических данных (например, доходы, производство). Получаемые оценки оказываются нестабильными как в отношении статистической значимости, так и по величине и знаку (например, коэффициенты корреляции). Следовательно, они ненадежны. Значения коэффициентов R2 могут быть высокими, но стандартные ошибки тоже высоки, и отсюда t- критерии малы, отражая недостаток значимости.
Для проверки появления мультиколлинеарности применяются два метода, доступные во всех статистических пакетах:
1. Вычисление матрицы коэффициентов корреляции для всех объясняющих переменных. Если коэффициенты корреляции между отдельными объясняющими переменными очень велики, то, следовательно, они коллинеарны. Однако, при этом не существует единого правила, в соответствии с которым есть некоторое пороговое значение коэффициента корреляции, после которого высокая корреляция может вызвать отрицательный эффект и повлиять на качество регрессии.
2. Для измерения эффекта мультиколлинеарности используется показатель VIF – «фактор инфляции вариации»:

VIF(xh)=(1-R2h)-1

где R2h - это значение коэффициента множественной корреляции, полученное для регрессора Xh как зависимой переменной и остальных переменных Xi. При этом степень мультиколлинеарности, представляемая в регрессии переменной Xh, когда все переменные Xi включены в регрессию, есть функция множественной корреляции между Xh и другими переменными Xi.

Если VIF>10, то объясняющие переменные, коррелирующие между собой, считаются мультиколлинеарными.

Существует еще ряд способов, позволяющих обнаружить эффект мультиколлинеарности:
1. Стандартная ошибка регрессионных коэффициентов близка к нулю.
2. Мощность коэффициента регрессии отличается от ожидаемого значения.
3. Знаки коэффициентов регрессии противоположны ожидаемым.
4. Добавление или удаление наблюдений из модели сильно изменяют значения оценок.

Для устранения мультиколлинеарности может быть принято несколько мер:
1. Увеличивают объем выборки по принципу, что больше данных означает меньшие дисперсии оценок МНК. Проблема реализации этого варианта решения состоит в трудности нахождения дополнительных данных.
2. Исключают те переменные, которые высококоррелированны с остальными. Проблема здесь заключается в том, что возможно переменные были включены на теоретической основе, и будет неправомочным их исключение только лишь для того, чтобы сделать статистические результаты «лучше».
3. Объединяют данные кросс-секций и временных рядов. При этом методе берут коэффициент из, скажем, кросс-секционной регрессии и заменяют его на коэффициент из эквивалентных данных временного ряда.

Проделанные манипуляции позволяют предположить, что мультиколлинеарность может присутствовать (оценки любой регрессии будут страдать от нее в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными), однако в данном примере это не влияет на результаты оценки регрессии. Следовательно, выделять «лишние» переменные не стоит, так как это отражается на содержательном смысле модели.

Попробуем исключить поочередно независимые переменные. Первой исключаем переменную x2i. Коэффициент при переменной x1i изменил знак на противоположный. Значит, явление существенно детерминирует несколько независимых переменных.

Проверим наличие гетероскедастичности в модели. Если остатки имеют постоянную дисперсию, они называются гомоскедастичными, но если они непостоянны, то гетероскедастичными. Гетероскедастичность приводит к тому, что коэффициенты регрессии больше не представляют собой лучшие оценки или не являются оценками с минимальной дисперсией, следовательно, они больше не являются наиболее эффективными коэффициентами.
Воздействие гетероскедастичности на оценку интервала прогнозирования и проверку гипотезы заключается в том, что хотя коэффициенты не смещены, дисперсии и, следовательно, стандартные ошибки этих коэффициентов будут смещены. Если смещение отрицательно, то оценочные стандартные ошибки будут меньше, чем они должны быть, а критерий проверки будет больше, чем в реальности. Таким образом, мы можем сделать вывод, что коэффициент значим, когда он таковым не является. И наоборот, если смещение положительно, то оценочные ошибки будут больше, чем они должны быть, а критерии проверки – меньше. Значит, мы можем принять нулевую гипотезу, в то время как она должна быть отвергнута.
Проверкой на гетероскедастичность служит тест Голдфелда-Кванта. Он требует, чтобы остатки были разделены на две группы из n наблюдений, одна группа с низкими, а другая – с высокими значениями. Обычно срединная одна шестая часть наблюдений удаляется после ранжирования в возрастающем порядке, чтобы улучшить разграничение между двумя группами. Отсюда число остатков в каждой группе составляет (n-c)/2, где C представляет одну шестую часть наблюдений.
Критерий Голдфелда-Кванта – это отношение суммы квадратов отклонений (СКО) высоких остатков к СКО низких остатков.
Этот критерий имеет t-распределение с (n-c)/(2-k) степенями свободы.
Чтобы решить проблему гетероскедастичности, нужно исследовать взаимосвязь между значениями ошибки и переменными и трансформировать регрессионную модель так, чтобы она отражала эту взаимосвязь. Это может быть достигнуто посредством регрессии значений ошибок по различным формам функций переменной, которая приводит к гетероскедастичности, например,
ei=a+b*xih,
где xi - независимая переменная (или какая-либо функция независимой переменной), которая предположительно является причиной гетероскедастичности, а H отражает степень взаимосвязи между ошибками и данной переменной, например, x2, или x1/n и т. д.
Следовательно, дисперсия коэффициентов запишется:
E(si2)=s2* xih
Используя Eviews, можно провести проверку и устранение гетероскедастичности следующим образом:
1. Запустить стандартную регрессию.
2. Вычислить остатки.
3. Запустить регрессию с использованием квадрата остатков как зависимой переменной и оценить зависимую переменную y как независимую переменную (тест White).
4. Оценить nR2, где n – объем выборки, R2 – коэффициент детерминации.
5. Использовать статистику хи-квадрат с одной степенью свободы (в EVIEWS – используется F – статистика) для проверки существенности отличия nR2 от нуля.
6. Основным способом устранения гетероскедастичности является применение взвешенного метода наименьших квадратов.

Выбираем тест White.
Как следует из распечатки, если вероятность ошибки первого рода более 50%то нулевую гипотезу (об отсутствии гетероскедастичности) нельзя отклонить.
Для случая, когда гетероскедастичность присутствует, проблему гетероскедастичности можно решать следующим образом:
Выбираем в пунктах меню текущего окна опцию Proc/Specify/Estimate…
Появляется окно оценки регрессии, где необходимо нажать клавишу Options и в появившимся окне отметить Heteroskedasticity.
Появится новое, переоцененное уравнение. Полученное уравнение можно вновь проверить по тесту White.


Переход на главную страницу книги
Переход к следующей странице
Сайт создан в системе uCoz